Міністерство освіти та науки України
Національний університет “Львівська політехніка”
Кафедра програмного забезпечення
Курсова робота
з курсу:
“Методи та засоби комп’ютерних
інформаційних технологій”
ЛЬВІВ – 2004
Зміст
Постановка задачі
3
Теоретичні відомості до завдання № 1
4
Розв’язання завдання № 1
5
Теоретичні відомості до завдання № 2
6
Розв’язання завдання № 2
7
Теоретичні відомості до завдання № 3
9
Розв’язання завдання № 3
11
Висновок
14
Постановка задачі (Варіант № 9)
Завдання №1
При передачі повідомлень по каналу зв’язку із шумами отримана наступна статистика: частота f1 із 100 раз була прийнята 97 раз, два рази була прийнята f2, один раз – f3. При передачі f2 98 раз прийнята f2, два рази f1. При передачі f3 96 раз прийнята f3, два рази f2, два рази f4. При передачі f4 99 раз прийнята f4, і один раз f3.
Скласти умовну канальну матрицю і визначити ентропію прийнятих повідомлень, якщо р(f1)=0,37, р(f2)=0,3, р(f3)=0,23, р(f4)=0,1
Завдання №2
Скласти програму для визначення еквівалентного опору та напругу Ucd приведеної схеми.
Дано:
U = 100 B; R1 = 80 Ом; R2 = 300 Ом; R3 = 160 Ом; R4 = 200 Ом; R5 = 20 Ом; R6 = 30 Ом. Дослідити залежність чутливості Ucd від R1, R2, R3. Побудувати залежності ΔUcd від ΔR1, ΔR2, ΔR3.
Завдання №3
Написати програму побудови коду Хемінга для передачі 11-ти розрядної комбінації 10110110110 реалізувати процедуру вправлення коду і продемонструвати її, якщо помилка має місце в 5-му розряді коректуючого коду.
Завдання №1
Теоретичні відомості
Термін умовної ентропії в теорії інформації використовується при визначення взаємозалежності між символами алфавіту який кодується, для визначення втрат при передачі інформації по каналах зв’язку, при обчисленні ентропії об’єднання.
У всіх випадках при обчисленні умовної ентропії в тому чи іншому вигляді використовуються умови ймовірності.
Якщо при передачі n повідомлень символ А з’явився m раз, символ В з’явився l раз, а символ А разом з символом В – k раз, то ймовірність появлення символу А р(А)=m/n, ймовірність появлення символу В р(В)=l/n, ймовірність появлення символів А і В р(АВ)=k/n, умовна ймовірність появлення символу А відносно символу В і умовна ймовірність появлення символу В відносно символу А
Якщо відома умовна ймовірність, то можна визначити і ймовірність одночасного появлення символів А і В, використовуючи формулу:
Від класичного визначення, формула умовної ентропії відрізняється тим, що в ній ймовірності – умовні:
де індекс і вибраний для характеристики довільного стану джерела повідомлень А, індекс j вибраний для характеристики довільного стану адресату В.
Розрізняють часткову і загальну умовну ентропю повідомлень.
Загальна умовна ентропія повідомлення В відносно повідомлення А характеризує кількість інформації, яка міститься в любому символі алфавіту, і визначається визначенням середнього по всіх символах, тобто по всіх станах з урахуванням ймовірності появлення символів алфавіту на невизначеність, яка залишається після того як адресат прийняв сигнал.
Часткова умовна ентропія визначається за формулою:
Поняття загальної і часткової умовної ентропії широко використовується при обчисленні інформаційних втрат в каналах зв’язку з шумами.
У випадку коли ми передаємо m сигналів А і очікуємо получити m сигналів В, дія перешкод в каналах звязку повністю описується з допомогою канальної матриці.
Розв’язок задачі.
Завдання:
При передачі повідомлень по каналу зв’язку із шумами отримана наступна статистика: частота f1 із 100 раз була прийнята 97 раз, два рази була прийнята f2, один раз – f3. При передачі f2 98 раз прийнята f2, два рази f1. При передачі f3 96 раз прийнята f3, два рази f2, два рази f4. При передачі f4 99 раз прийнята f4, і один раз f3.
Скласти умовну канальну матрицю і визначити ентропію прийнятих повідомлень, якщо р(f1)=0,37, р(f2)=0,3, р(f3)=0,23, р(f4)=0,1
Розв’язок:
1). Складаємо канальну матрицю:
2). Визначаємо ентропію прийнятих повідомлень.
Ентроп...